1
知識表示與推理 (KRR)
PolyU COMP5511第 4 講
00:44

簡介

歡迎學習 第 4 課:知識表示與推理 (KRR)。在此模組中,我們將探討人工智能的根本挑戰:如何以符號方式對世界進行建模。機器不僅要能夠儲存資料,更要能 推理。我們將探討人工智能系統如何邏輯地表示資訊以進行推論,超越單純的模式匹配。

第一節:歷史基礎

我們將會梳理從古典的 命題邏輯一階邏輯 到傳統的、僵化但強大的 專家系統。這些系統提供了第一批能夠進行邏輯推理的「思考」機器。

第二節:現代融合

最後,我們將觸及現代人工智能的前沿,探討 知識圖譜和神經符號人工智能 (Neuro-Symbolic AI)。這個新興領域旨在融合邏輯的嚴謹可解釋性與神經網絡的適應性學習能力。

上下文警報
與運作方式像「黑盒子」的神經網絡不同,KRR 專注於 「白盒子模型」,其中推理路徑是明確、可驗證且可解釋的。
符號邏輯語法範例
1
事實: 父母( 愛麗絲, 鮑勃 )
2
事實: 父母( 鮑勃, 查理 )
3
規則: x, y, z ( 父母(x, y) 父母(y, z) 祖父母(x, z))
4
推論: 祖父母( 愛麗絲, 查理 )
案例研究:醫療診斷師
請閱讀以下場景並回答問題。
早期的 AI 系統如 MYCIN 使用 KRR 來診斷血液感染。與現代僅基於統計進行猜測的機器學習 (ML) 不同,MYCIN 使用了從醫生那裡提取的 600 多條規則。
Q1
1. 與一般圖像分類器相比,為什麼「可解釋性」對於醫療 KRR 系統至關重要?可解釋性
答案:
在醫學中,醫生需要一個可驗證的路徑(所使用的規則鏈)來信任診斷結果。「黑盒子」的預測對於關鍵決策是不可接受的。KRR 提供了這種明確的推理路徑。
Q2
2. 系統如何處理像「如果發燒嚴重,則感染可能性高」這樣的規則?
答案:
該規則以符號表示(例如:高燒可能性高y)。推理引擎會檢查病患記錄中是否存在「高燒」這個事實;如果是,它就會斷言「可能性高y」作為一個新的結論。
Q3
3. 識別手動編碼這些規則的限制(知識獲取瓶頸)。
答案:
主要限制是「知識獲取瓶頸: the difficulty and time required for human experts to articulate all their knowledge into formal, explicit rules. Real-world knowledge is often ambiguous and too vast for manual encoding.